37 research outputs found

    Analyzing One-Sided Communication Using Memory Access Diagrams

    Get PDF
    n recent years, one-sided communication has emerged as an alternative to message-based communication to improve the scalability of distributed programs. Decoupling communication and synchronization in such programs allows for more asynchronous execution of processes, but introduces new challenges to ensure program correctness and efficiency. The concept of memory access diagrams presented in this paper opens up a new analysis perspective to the programmer. Our approach visualizes the interaction of synchronous, asynchronous, and remote memory accesses. We present an interactive tool that can be used to perform a postmortem analysis of a distributed program execution. The tool supports hybrid parallel programs, shared MPI windows, and GASPI communication operations. In two application studies taken from the European aerospace industry we illustrate the usefulness of memory access diagrams for visualizing and understanding the logical causes of programming errors, performance flaws, and to find optimization opportunities

    Data Management Plan Tools: Overview and Evaluation

    Get PDF
    Data Management Plans (DMPs) are crucial for a structured research data management and often a mandatory part of research proposals. DMP tools support the development of DMPs. Among the variety of tools available, it can be difficult for researchers, data stewards and institutions to choose the one that is most appropriate for their specific needs and context. We evaluated 18 DMP tools according to 31 requirement parameters covering aspects relating to basic functions, technical aspects and user-friendliness. The highest total evaluation scores were reached by Data Stewardship Wizard (703.5), DMPTool (615.5) and RDMO NFDI4Ing (549.5). The tools evaluated satisfied between 10 % and 87 % of the requirement parameters. 11 tools cover at least half of the parameters. Accounting for the recent developments in the area of DMP tools, this study provides an up-to-date evaluation that can support tool developers in identifying potential improvements, and hosting institutions to select a tool suited to their specific needs

    OpARA – Open Access Repository and Archive: Archivierung und Publikation digitaler Forschungsdaten

    Get PDF
    Für Wissenschaftler der Technischen Universitäten Dresden und Bergakademie Freiberg, die ihre Forschungsdaten archivieren und publizieren möchten, steht seit Anfang 2018 der Dienst OpARA (Open Access Repository and Archive) als institutionelles Repositorium zur Verfügung. Wissenschaftler haben hier die Möglichkeit, ohne zusätzliche Kosten die Anforderungen der Guten Wissenschaftlichen Praxis an die langfristige sichere Aufbewahrung von Forschungsdaten (Archivierung über mindestens zehn Jahre) unkompliziert zu erfüllen. Der Dienst OpARA wird von den Rechenzentren der beiden Universitäten gemeinsam betrieben, die Daten werden lokal archiviert und optional publiziert. Vor der Archivierung findet ein Begutachtungsprozess statt, um die fachliche und technische Qualität der Daten zu gewährleisten. Es wird dabei insbesondere die Dokumentation und Aufbereitung für Daten, die publiziert werden sollen, unter dem Aspekt einer guten Nachnutzbarkeit beurteilt und bei Bedarf unterstützt

    Serviceverzeichnis Forschungsdaten

    Get PDF
    Der Bereich Forschungsdatenmanagement (FDM) entwickelt sich rasant. FDM hat an vielen Universitäten und außeruniversitären Forschungseinrichtungen strategische Bedeutung erlangt. Standorte müssen nicht von Grund auf neu anfangen, um Dienstleistungen zum FDM anzubieten. Sondern es ist möglich, besser als bisher voneinander zu lernen und auf Diensten und Expertise von anderen aufzubauen, wenn bekannt ist, wo welche Dienste angeboten werden und bei wem spezifische Expertise bzw. Erfahrungen vorhanden sind. Das Projekt „Serviceverzeichnis Forschungsdaten” ist 2016 aus dem 6. DINI/nestor-Workshop „Kooperationstreffen Forschungsdaten” in Göttingen hervorgegangen. Hier hat sich ein großer Informationsbedarf über vorhandene nationale FDM-Angebote/Initiativen und vorhandene Expertise gezeigt. Ziel des Verzeichnisses ist eine systematische Sammlung von Diensten und Expertinnen und Experten bzw. Ansprechpartnerinnen und Ansprechpartnern rund um das Thema Management von Forschungsdaten. Diese Informationen sollen offen und interaktiv über eine Webplattform präsentiert werden. Primäre Zielgruppe sind alle diejenigen, die sich mit dem Aufbau von Informationsinfrastruktur beschäftigen, aber auch Forschende, die Dienste nutzen möchten oder Expertise zu bestimmten Fragestellungen im Datenmanagement suchen. Der Inhalt soll sowohl durch die Community der FDM-Expertinnen und Experten als auch der Diensteanbieter selber gepflegt werden. Ein schlankes Redaktionskonzept soll die Qualität des Serviceverzeichnis Forschungsdaten sicherstellen. Die Projektgruppe hat hierfür ein Datenmodell und eine Plattform prototypisch entwickelt, die wir in unserem Beitrag vorstellen möchten. Derzeit werden Anwendertests durchgeführt, die der Weiterentwicklung des Systems dienen

    HICFD – Highly Efficient Implementation of CFD Codes for HPC Many-Core Architectures

    Get PDF
    The objective of the German BMBF research project Highly Efficient Implementation of CFD Codes for HPC Many-Core Architectures (HICFD) is to develop new methods and tools for the analysis and optimization of the performance of parallel computational fluid dynamics (CFD) codes on high performance computer systems with many-core processors. In the work packages of the project it is investigated how the performance of parallel CFD codes written in C can be increased by the optimal use of all parallelism levels. On the highest level MPI is utilized. Furthermore, on the level of the many-core architecture, highly scaling, hybrid OpenMP/MPI methods are implemented. On the level of the processor cores the parallel SIMD units provided by modern CPUs are exploited

    Die Kalibration des elektromagnetischen CsI(Tl)-Kalorimeters des BABAR-Detektors mit Ereignissen der Bhabha-Streuung

    Get PDF
    Für das CsI(Tl)-Kalorimeter des Babar-Detektors wurde ein Verfahren zur Kalibration entwickelt und implementiert. Es ist in der Lage, für alle 6580 Kristalle absolute Kalibrationskonstanten zu bestimmen und die zeitliche Änderung der Kristalleigenschaften zu monitorieren. Der Algorithmus basiert auf dem Vergleich von gemessener Energie und erwarteter deponierter Energie von Teilchen aus Ereignissen der Bhabha-Streuung. Die gemessene Energie wird aus einem Cluster von getroffenen Kristallen bestimmt, wobei die Kalibrierung der Einzelkristallenergien durch Multiplikation mit einer Kalibrationskonstante c erfolgt. Die erwartete Energie wird aus einer Monte-Carlo-Simulation extrahiert. Die Minimierung eines chi^2-Terms - in dem erwartete und gemessene Cluster-Energien verglichen werden - bezüglich der Kalibrationskonstanten c, führt zu einem linearen Gleichungssystem mit einer 6580*6580 Matrix, die numerisch invertiert werden kann. Die Methode kalibriert die Kristalle im Energiebereich von 2,5 bis 8 GeV. Bei einer Luminosität von 3*10^33 Ereignissen pro cm^2 und s erlaubt die hohe Rate an Bhabha-Ereignissen am PEP-II-Beschleuniger eine Kalibration mit einer statistischen Genauigkeit von 0,32 % innerhalb von 12 Stunden. Der Einfluss systematischer Unsicherheiten wurde untersucht und zu +0,81% -0,72% abgeschätzt. Durch die Kalibration konnten Energieauflösungen sigma_E / E von 1,8% bei Elektronen mit einer Energie von 7,5 GeV erreicht werden. Im Jahr 2000 wurde von Mitte Mai bis Ende Oktober ein Absinken der Lichtausbeute der Kristalle der Endkappe von etwa 2,8% beobachtet.A technique to calibrate the CsI(Tl) calorimeter of the Babar experiment was developed and implemented. The method allows a calculation of absolute calibration constants for all 6580 crystals. With these constants, a monitoring of the change of the light yield of the crystals is possible. The algorithm is based on the comparison of the measured energy and the expected deposited energy of particles in Bhabha scattering events. The measured energy is calculated from a cluster of hit crystals. The individual crystal energies are calibrated by a multiplication with a calibration constant c. The expected energy is extracted from a Monte-Carlo-Simulation. Minimizing a chi^2 term - which compares the expected and the measured cluster energies - with respect to the constants c yields a system of linear equations with a 6580x6580 matrix, that can be inverted numerically. The crystals are calibrated in an energy range of 2.5 to 8 GeV. The large rate of Bhabha scattering events at the PEP-II accelerator allows a calibration with a statistical precision of 0.32% within 12 hours of data taking at a luminosity of 3*10^33 events per square centimeter and second. The influence of systematic uncertainties was studied and estimated to be +0.81% -0.72%. Due to the calibration an energy resolution sigma_E / E of 1.8% could be obtained for electrons with an energy of 7.5 GeV. With the calibration constants a decrease in the lightyield of the endcap crystals of 2.8% could be observed between May and October 2000

    UNICORE summit 2011 : proceedings, 7 - 8 July 2011, Torun, Poland

    Get PDF
    When the foundations of UNICORE were laid in the late 90’s of the 20th century the "ancestors" intended to create a uniform interface to computing resources for a (small) number of computing centres. Today - in the era of eSciences and large distributed eInfrastructures - UNICORE has become one of the most innovative and major middlewares in Grid Computing serving users around the world. The UNICORE Summit is a unique event for users, developers, researchers, administrators and service providers to meet. They hear the latest news, share their experiences, present recent and intended developments, get new ideas for projects, find partners and discuss the future of UNICORE. The Summit has been held every year since it started in 2005. The 2011 Summit took place in Torun on July 7 and 8. Torun is an ancient city in Northern Poland picturesquely located on the Vistula river. At about the same time when UNICORE was founded the medieval part of Torun was designated a World heritage by the UNESCO. The event was opened with an invited talk by Abdulrahman Azab from the University of Stavanger on the usage of R and UNICORE for medical research. In the following, 16 technical contributions gave more insights to various development and usage aspects. Additionally, posters were presented by the authors in a poster session on Friday. In the second invited talk Piotr Bala from Warsaw reported on the usage of UNICORE in the polish national Grid initiative PL-Grid. A unique feature of the Summit were the lively plenary discussions. The topics focused on the future ways UNICORE should go, with subjects like "UNICORE and Clouds" or "UNICORE and Portals". We would like to thank all contributors for their presentations and papers as well as the organisers of the UNICORE Summit 2011 in Torun for their excellent work. We are sure every participant will keep this wonderful event in mind. More information about the UNICORE summit series can be found at http://www.unicore.eu/summit/. We are looking forward to the next UNICORE Summit 2012
    corecore